Thực đơn
Lý_thuyết_thông_tin Đo lường thông tinLý thuyết thông tin được xây dựng dựa trên lý thuyết xác suất và thống kê. Thông số quan trọng nhất của thông tin là entropy, lượng thông tin trong một biến ngẫu nhiên, và thông tin tương hỗ, lượng thông tin chung giữa hai biến ngẫu nhiên.
Nếu X {\displaystyle \mathbb {X} } là tập hợp tất cả các thông điệp { x 1 , . . . , x n } {\displaystyle \{x_{1},...,x_{n}\}} mà X {\displaystyle X} có thể nhận giá trị, và p ( x ) {\displaystyle p(x)} là xác suất X {\displaystyle X} nhận giá trị x ∈ X {\displaystyle x\in \mathbb {X} } , thì entropy của X {\displaystyle X} được định nghĩa như sau:[8]
H ( X ) = E X [ I ( x ) ] = − ∑ x ∈ X p ( x ) log p ( x ) . {\displaystyle H(X)=\mathbb {E} _{X}[I(x)]=-\sum _{x\in \mathbb {X} }p(x)\log p(x).}Trường hợp đặc biệt của entropy thông tin cho biến ngẫu nhiên với đúng hai khả năng gọi là hàm entropy nhị phân, thường được tính theo lôgarit cơ số 2:
H b ( p ) = − p log 2 p − ( 1 − p ) log 2 ( 1 − p ) . {\displaystyle H_{\mbox{b}}(p)=-p\log _{2}p-(1-p)\log _{2}(1-p).\,}Entropy hợp của hai biến ngẫu nhiên rời rạc X và Y là entropy của cặp (X, Y). Có nghĩa là nếu X và Y là độc lập thì entropy hợp là tổng của entropy của mỗi biến.
H ( X , Y ) = E X , Y [ − log p ( x , y ) ] = − ∑ x , y p ( x , y ) log p ( x , y ) {\displaystyle H(X,Y)=\mathbb {E} _{X,Y}[-\log p(x,y)]=-\sum _{x,y}p(x,y)\log p(x,y)\,}Entropy có điều kiện của X cho trước Y là giá trị kì vọng của entropy của X theo phân bố của Y.
H ( X | Y ) = E Y [ H ( X | y ) ] = − ∑ y ∈ Y p ( y ) ∑ x ∈ X p ( x | y ) log p ( x | y ) = − ∑ x , y p ( x , y ) log p ( x , y ) p ( y ) . {\displaystyle H(X|Y)=\mathbb {E} _{Y}[H(X|y)]=-\sum _{y\in Y}p(y)\sum _{x\in X}p(x|y)\log p(x|y)=-\sum _{x,y}p(x,y)\log {\frac {p(x,y)}{p(y)}}.}Một tính chất cơ bản của entropy có điều kiện là
H ( X | Y ) = H ( X , Y ) − H ( Y ) . {\displaystyle H(X|Y)=H(X,Y)-H(Y).\,}Thông tin tương hỗ đo lượng thông tin thu được về một biến ngẫu nhiên thông qua giá trị của một biến ngẫu nhiên khác.
I ( X ; Y ) = E X , Y [ S I ( x , y ) ] = ∑ x , y p ( x , y ) log p ( x , y ) p ( x ) p ( y ) {\displaystyle I(X;Y)=\mathbb {E} _{X,Y}[SI(x,y)]=\sum _{x,y}p(x,y)\log {\frac {p(x,y)}{p(x)\,p(y)}}}Một tính chất cơ bản của thông tin tương hỗ là
I ( X ; Y ) = H ( X ) − H ( X | Y ) . {\displaystyle I(X;Y)=H(X)-H(X|Y).\,}Thông tin tương hỗ có tính chất đối xứng:
I ( X ; Y ) = I ( Y ; X ) = H ( X ) + H ( Y ) − H ( X , Y ) . {\displaystyle I(X;Y)=I(Y;X)=H(X)+H(Y)-H(X,Y).\,}Thông tin tương hỗ có thể được biểu diễn dưới dạng khoảng cách Kullback-Leibler của phân bố hậu nghiệm của X nếu biết giá trị của Y và phân bố tiền nghiệm của X:
I ( X ; Y ) = E p ( y ) [ D K L ( p ( X | Y = y ) ‖ p ( X ) ) ] . {\displaystyle I(X;Y)=\mathbb {E} _{p(y)}[D_{\mathrm {KL} }(p(X|Y=y)\|p(X))].}Nói cách khác, độ đo này xác định, về mặt trung bình, sự thay đổi của phân bố của X nếu biết giá trị của Y. Giá trị này còn có thể tính bằng khoảng cách giữa tích của các phân bố biên với phân bố hợp:
I ( X ; Y ) = D K L ( p ( X , Y ) ‖ p ( X ) p ( Y ) ) . {\displaystyle I(X;Y)=D_{\mathrm {KL} }(p(X,Y)\|p(X)p(Y)).}Khoảng cách Kullback-Leibler (hoặc entropy tương đối) là một cách so sánh hai phân bố: phân bố "thật" p(x) và một phân bố bất kì q(x). Nó được định nghĩa như sau:
D K L ( p ( X ) ‖ q ( X ) ) = ∑ x ∈ X − p ( x ) log q ( x ) − ( − p ( x ) log p ( x ) ) = ∑ x ∈ X p ( x ) log p ( x ) q ( x ) . {\displaystyle D_{\mathrm {KL} }(p(X)\|q(X))=\sum _{x\in X}-p(x)\log {q(x)}\,-\,\left(-p(x)\log {p(x)}\right)=\sum _{x\in X}p(x)\log {\frac {p(x)}{q(x)}}.}Mặc dù đôi khi nó được sử dụng như một "khoảng cách metric", khoảng cách Kullback-Leibler không phải là một metric do nó không đối xứng và không thỏa mãn bất đẳng thức tam giác.
Một vài thông số khác trong lý thuyết thông tin bao gồm entropy Rényi, entropy vi phân, thông tin tương hỗ có điều kiện.
Thực đơn
Lý_thuyết_thông_tin Đo lường thông tinLiên quan
Lý thuyết trò chơi Lý Thái Tổ Lý Thường Kiệt Lý Thuấn Thần Lý Thái Tông Lý thuyết hành vi có kế hoạch Lý thuyết số Lý thuyết chiều văn hóa của Hofstede Lý thuyết điều khiển tự động Lý thuyết sóng ElliottTài liệu tham khảo
WikiPedia: Lý_thuyết_thông_tin http://www.dotrose.com/etext/90_Miscellaneous/tran... http://books.google.com/books?id=RtzpRAiX6OgC&pg=P... http://sciamdigital.com/index.cfm?fa=Products.View... http://bayes.wustl.edu/ http://www.essrl.wustl.edu/~jao/itrg/shannon.pdf http://www.lecb.ncifcrf.gov/~toms/ http://aicanderson2.home.comcast.net/~aicanderson2...